安安!各位(*´∀`)~
這個系列文章從數學的角度深入探討了 AI、機器學習(ML)與數據科學中的核心概念,並通過數學工具解析每個技術背後的原理。內容涵蓋了從基礎數學知識,如線性代數、微積分、統計學,到前饋神經網路、卷積神經網路、遞迴神經網路等深度學習模型,逐步講解每個技術的運作機制和其數學背景。我並不覺得三十天就能學習完這未知的航道,接下來我也會繼續邁進(以修你 甘巴爹ლ( • ̀ω•́ )っ
來到最後一篇了,但我已經把我想講的說完了
那就來說說我在學習路上遇到的事情
首先,要不是我的同事邀請我,我可能現在是下班後癱軟在沙發上的🥔
開始寫的那週,剛好我的研究所開學,對於我的一個只接觸過文字探勘的新手而已
老實說,我其實一直在盲人摸🐘
所以也為著我的論文,我也踏上邊學習邊把我的筆記分享出來
分享讓我衝動想去讀研究所的一句話:
只有在真正去做的時候,才會曉得問題出在哪裡。 - 哈利波特的神秘的魔法石
附上我的百寶公式們總整理
矩陣運算(線性代數):
線性變換公式:
特徵值分解:
數據降維和理解矩陣的性質,特別是在主成分分析(PCA)中。
梯度下降法(微積分):
梯度更新公式:
鏈式法則(反向傳播):
計算誤差相對於權重的梯度,是反向傳播算法的數學基礎。
損失函數與正則化(最佳化理論):
均方誤差(MSE)損失函數:
L2 正則化(Ridge):
機率分佈(統計學與機率論):
極大似然估計(MLE):
隨機過程(時間序列與自回歸模型):
自回歸模型(AR):
注意力機制(深度學習):
注意力權重計算:
自編碼器(自生成模型):
損失函數:
附上我這陣子讀的paper
Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press.
Bishop, C. M. (2006). Pattern Recognition and Machine Learning. Springer.
LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444.
Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). Imagenet classification with deep convolutional neural networks. Advances in neural information processing systems, 25.
也很感謝看我文章的大家。